Արհեստական բանականության հաղթարշավի ետևում իրական ռիսկեր են
12 ր. | 2024-11-25Կանոնակարգումը հրատապ առաջնահերթություն է
Հոդվածում նկարագրված են արհեստական բանականության լայն ներդրման հնարավոր ռիսկերը, միջազգային պրակտիկայում առկա կարգավորումները, ինչպես նաև՝ Հայաստանում համանման կարգավորումների ներդրման հրատապության հիմնավորումները։
Մ արդու գործունեության գրեթե բոլոր բնագավառներում արհեստական բանականության մասշտաբային և ընդլայնվող ներդրման հետ մեկտեղ ակնհայտ են դարձել ռիսկեր, որոնց կառավարումն անհնար է առանց ԱԲ կիրառության կանոնակարգման։ Իրական դեպքերի ուսումնասիրությունը ցույց է տալիս, որ ԱԲ տեխնոլոգիաների վերահսկողության և կարգավորման անհրաժեշտությունն արդի հրամայական է։
Իհարկե, առաջատար երկրները ոչ միանշանակ մոտեցում ունեն ԱԲ կարգավորումների հարցում, քանի որ կան այնպիսիները, որոնք կարգավորումները պատվիրակել են խոշոր կորպորացիաներին և սահմանափակվել են միայն պետական մարմիններում նորագույն տեխնոլոգիաների կիրառման կանոնակարգմամբ։ Սակայն եղած միտումներն ակնհայտ են դարձնում, որ Հայաստանի պես փոքր շուկա ունեցող և տեղեկատվական իմաստով խոցելի երկրները, որոնք չունեն և տեսանելի ապագայում չեն կարող ՏՏ ոլորտում եղանակ ստեղծող խոշոր խաղացողներ ունենալ, պետք է օր առաջ կանոնակարգեն ԱԲ տիրույթը։ Այս պարագայում կանոնակարգելը երկու՝ միմյանց հակառակ վեկտորներով գործառույթ է ենթադրում։ Առաջինը՝ անհրաժեշտ է ԱԲ տիրույթի զարգացման և լայն մասշտաբներով ներդրման ռազմավարություն որդեգրել, և երկրորդը՝ միևնույն պահին հստակ կարգավորել ԱԲ գործիքների կիրառման սկզբունքները և մեխանիզմները՝ հիմք ընդունելով առաջատար երկրների կուտակած փորձը։
Նախորդ հոդվածներում անդրադարձել եմ մի շարք ոլորտներում ԱԲ ներդրման ակնկալվող հսկայական առավելություններին, որոնց կանդրադառնամ նաև հաջորդ հրապարակումներում և կփորձեմ առավել առարկայական ներկայացնել ԱԲ տիրույթի զարգացման ու լայնորեն կիրառման հարցում առկա անելիքները։ Սակայն այս հրապարակման մեջ առաջարկում եմ կենտրոնանալ ԱԲ ոլորտի կարգավորումների անհրաժեշտության վրա։
Միջազգային «դառը» փորձը
Ի նչպես կարելի էր հեշտորեն կանխատեսել, յուրաքանչյուր տեխնոլոգիական առաջընթացից փորձում են օգուտներ քաղել նաև ոչ այնքան ազնիվ նպատակներ հետապնդող անձինք կամ անձանց խմբերը։ Հատկապես, երբ հարցն առնչվում է տեղեկատվական ահռելի հոսքների մեջ հայտնված մերօրյա մարդուն, պարզ է, որ այս դաշտում հեղափոխություն իրականացնող ԱԲ տեխնոլոգիաներն առաջինը կարող էին ուղղվել հենց տեղեկատվական հոսքերից կախում ունեցող մարդու դեմ։ Իրականից գրեթե ոչնչով չտարբերվող մանիպուլյացիաների և ապատեղեկատվության գեներացիա, անձնական տվյալների հավաքում և օգտագործում, անհատականացված ու թիրախային տեղեկատվական արշավներ, ԱԲ կողմից գեներացվող կողմնակալ և խտրական բովանդակություն. սրանք այն դրսևորումներից են, որոնց հետ արդեն բախվել են բազմաթիվ երկրներ։ Այժմ՝ բոլորի մասին ավելի մանրամասն
Ապատեղեկատվություն և մանիպուլյացիա
Ա Բ տեխնոլոգիաների կիրառման հետևանքով առկա են էական ռիսկեր ժողովրդավարական գործընթացներին, այդ թվում՝ ընտրություններին միջամտության, սոցցանցային հարձակումների, հանրային լայնամասշտաբ մանիպուլյացիաների տեսքով։ Այս ռիսկերն առավել սրվում են հատկապես այն երկրներում, որոնք գտնվում են նախընտրական շրջանում։ Պետք է սպասել, որ առաջիկայում նման իրավիճակ կարող է ձևավորվել նաև Հայաստանում, որը 2026թ-ին գտնվելու է ընտրական ակտիվ եռուզեռում։
ԱԲ կիրառմամբ ամենատարածված պրակտիկաներից է դիփֆեյք (Deepfake) գեներացիան։ Այս տեխնոլոգիաներով քաղաքական գործիչների և հանրաճանաչ անձանց մասին պատրաստվում են համոզիչ կեղծ տեսանյութեր, որոնց տարածումը կարող է հանգեցնել ընտրական և հեղինակության վնասների։ ԱՄՆ նախագահական ընտրություններին ընդառաջ ապատեղեկատվություն տարածելու նպատակով ԱԲ և դիփֆեյք տեխնոլոգիաների կիրառման զգալի թվով դեպքեր են արձանագրվել։ Ընտրություններից առաջ տարածվեցին դիփֆեյքեր, որտեղ նախագահ Ջո Բայդենը կոչ էր անում ընտրողներին չմասնակցել նախնական ընտրություններին։
Ընտրություններին միջամտության հայտնի դեպքերից է 2023թ.-ին Պակիստանի ընտրություններից մեկ օր առաջ տարածված Իմրան Խանի ձայնային դիփֆեյքը, որով նախկին վարչապետը կոչ էր անում բոյկոտել ընտրությունները։ Հնդկաստանի 2024թ.-ի ընտրություններում ևս դիփֆեյքերի լայն օգտագործում է արձանագրվել: Օրինակ, ստեղծվել էին ԱԲ գործիքներով գեներացված ձայնային հաղորդագրություններ և տեսանյութեր՝ Հնդկաստանի տարբեր լեզուներով։ Չնայած դեիփֆեյքերի մեծամասնության ցածր որակին՝ հաճախակի օգտագործումը կարող է աստիճանաբար խաթարել հանրային վստահությունը քաղաքական գործընթացների նկատմամբ։ Սլովակիայի այս տարվա ընտրությունների նախաշեմին տարածվեց դիփֆեյք տեսանյութ, որտեղ ներկայացվում էր ընտրակեղծիք, ինչն, ըստ գնահատականների, նպաստեց հակաարևմտյան դիրքորոշում ունեցող թեկնածուի հաղթանակին։
Ազգային անվտանգության տեսանկյունից ևս դիփֆեյքերը կարող են մեծ սպառնալիք լինել։ Այդպիսի հայտնի օրինակներից է Ուկրաինայի նախագահ Վլադիմիր Զելենսկու կերպարով 2022թ.-ին տարածված դիփֆեյքը, որտեղ Զելենսկին կոչ էր անում ուկրաինացի զինվորներին զենքերը վայր դնել և հանձնվել։
Քաղաքական նպատակներով կիրառվող մեկ այլ ԱԲ տեխնոլոգիաներից է բոտային ցանցերի կիրառումը, երբ սոցցանցերում ստեղծվում են ավտոմատացված հաշիվներ, որոնք ազդում են հանրային կարծիքի վրա և տարածում են ապատեղեկատվություն ընտրությունների և կարևոր իրադարձությունների ընթացքում։ Մասնավորապես, OpenAI ընկերությունն արձանագրել է նման գործողություններ ադրբեջանական խմբերի կողմից։ OpenAI-ի «Ազդեցության և կիբեռ գործողությունների թարմացված զեկույցը» բացահայտել է «A2Z» անունով օպերացիան, որը Ադրբեջանի օգտին սոցիալական մեդիայում քարոզչություն էր իրականացնում՝ ներկայացնելով երկիրը որպես կարևոր քաղաքական դերակատար: Հիմնականում X-ում և Facebook-ում գործող 150 կեղծ օգտահաշիվներից բաղկացած խումբը տարածել է նաև «Մեծ Թուրանի» գաղափարը: OpenAI-ը նշում է. «Սոցիալական մեդիայի գրառումների մեծ մասը ստացել են քիչ հավանումներ», և արգելափակել է այդ հաշիվները:
Բացի քաղաքական նպատակներով դիփֆեյքերի կիրառումից, սոցցանցերում ԱԲ տեխնոլոգիաներով հարձակումների կարող են ենթարկվել նաև քաղաքացիները։ Փաստագրված դեպքեր են արձանագրվել, երբ ԱԲ-ն օգտագործվել է ֆիշինգային հարձակումները կատարելագործելու և խախտումների հայտնաբերումից խուսափելու համար։
Տվյալների անվտանգության ռիսկեր
Մ իջազգային փորձը հուշում է, որ ԱԲ կարգավորումների բացակայությունը ստեղծում է ռիսկեր չթույլատրված կերպով տվյալների հավաքագրման և մշակման համար, ինչպես նաև՝ հնարավորություն է տալիս ստեղծել չարտոնագրված զանգվածային հսկողության մոդելներ։
Մասնավորապես, հայտնի դեպքերից է Clearview AI-ի նկատմամբ 2020թ.-ին իրականացված դատավարությունը։ Այս ընկերությունը սոցիալական ցանցերից առանց համաձայնության հավաքագրել էր միլիարդավոր լուսանկարներ՝ դեմքի ճանաչման տվյալների շտեմարան ստեղծելու համար, ինչը հանգեցրել էր բազմաթիվ դատական հայցերի և գաղտնիության խախտման քննությունների։ Ավելի վաղ՝ 2018թ.-ին տեղի էր ունեցել ևս մեկ սկանդալ Cambridge Analytica-ի և Facebook-ի շուրջ: Cambridge Analytica ընկերությունը, օգտագործելով ԱԲ ալգորիթմներ, հավաքագրել և մշակել է ավելի քան 87 միլիոն Facebook օգտատերերի անձնական տվյալներ՝ առանց նրանց համաձայնության։ Այս տվյալները կիրառվել են քաղաքական գովազդների թիրախավորման և ընտրողների վարքագծի վրա ազդելու նպատակով։
Կողմնակալություն և խտրականություն
Ա րձանագրված դեպքերի վերլուծությունը թույլ է տալիս եզրակացնել, որ ԱԲ կարգավորումների բացակայությունը ստեղծում է կողմնակալ վերարտադրության, անարդար և ոչ օբյեկտիվ վերաբերմունքի ռիսկեր կարևոր որոշումների կայացման ժամանակ, որոշումների կայացման գործընթացների թափանցիկության բացակայություն, ինչպես նաև՝ կողմնակալ արդյունքների համար սահմանափակ պատասխանատվություն։
Մասնավորապես, բացահայտվել է, որ ԱՄՆ դատարաններում կիրառվող COMPAS հանցավորության գնահատման ԱԲ ալգորիթմը ցուցաբերել է ռասայական էական կողմնակալություն կրկնահանցագործության հավանականությունը կանխատեսելիս՝ ազդելով դատավճիռների վրա։ Amazon-ի աշխատանքի ընդունման գործիքի կիրառությունը դադարեցվել է կին թեկնածուների նկատմամբ կողմնակալ վերաբերմունք ցուցաբերելու պատճառով, քանի որ ուսուցանվել էր պատմականորեն տղամարդկանց գերակշռող աշխատանքի ընդունման տվյալների հիման վրա։ 2016թ.-ին Microsoft-ի Tay չաթբոտը, թողարկվելով առանց բավարար անվտանգության միջոցների, արագորեն սովորել էր օգտատերերի հետ շփումից ստեղծել վնասակար և խտրական բովանդակություն՝ տարածելով ատելության խոսք։
Աշխատաշուկայի խաթարման ռիսկեր
Ա Բ տեխնոլոգիաների ակտիվ ներդրումը պարունակում է նաև ռիսկեր աշխատատեղերի արագ կրճատման, մասնագիտական հմտությունների հնացման, եկամուտների անհավասարության խորացման հետ կապված։ Համաշխարհային տնտեսական ֆորումի զեկույցների համաձայն՝ ԱԲ տեխնոլոգիաների պարագայում աշխատանք գտնելու համար աշխարհի աշխատուժի մոտ 50%-ը կարիք է ունենալու մինչև 2025 թվականը վերապատրաստվել կամ նոր մասնագիտություն ձեռք բերելու, որպեսզի համապատասխանի աշխատաշուկայի նոր պահանջներին։
Կանխատեսումների համաձայն՝ ադմինիստրատիվ աջակցության ծառայությունները կրելու են ԱԲ ազդեցության ամենամեծ ռիսկերից մեկը, մասնավորապես՝ սպասվում է, որ այդպիսի ծառայությունների մոտ 46%-ը կավտոմատացվի։ Իրավական ոլորտի աշխատողների մոտ 44%-ը և ճարտարապետների ու ինժեներների 37%-ը ևս ավտոմատացման կամ ԱԲ տեխնոլոգիաներով փոխարինման ռիսկի տակ են։ Այս ռիսկերը ևս կառավարման կարիք ունեն և պետք է լինեն ուշադրության կենտրոնում, որովհետև եթե մասնագետները չկարողանան ժամանակին վերապատրաստվել և ձեռք բերել նոր հմտություններ, տիրապետել ԱԲ գործիքներին, ապա մեծ հավանականությամբ կհայտնվեն աշխատանքը կորցնելու խնդրի առաջ։
ԱԲ ռիսկերի կառավարման միջազգային պրակտիկա
Փ աստագրված դեպքերը ցույց են տալիս, որ ԱԲ-ի չկարգավորված կիրառումը զգալի ռիսկեր է պարունակում տարբեր ոլորտներում։ ԱԲ տեխնոլոգիաների արագ զարգացմանը զուգահեռ միջազգային պրակտիկայում ներդրվում են կարգավորման ճկուն մեխանիզմներ, որոնք կոչված են լուծել ինչպես ներկա, այնպես էլ ծագող ռիսկերը։ Միջազգային փորձի ուսումնասիրությունը կարող է էապես հեշտացնել Հայաստանում նման կարգավորումների ներդրումը, քանի որ դրանք պարունակում են ոչ միայն սկզբունքների թվարկում, այլ նաև պրակտիկ մեխանիզմների ներդրում։
ԵՄ արհեստական բանականության ակտ և ԵԽ ԱԲ շրջանակային հռչակագիր
ԵՄ ԱԲ ակտը, որն ընդունվել է 2024թ. մարտին, առաջին համապարփակ կանոնակարգն է, որն ապահովում է ԱԲ-ի անվտանգ, թափանցիկ և էթիկական օգտագործումը Եվրոպայում: Այն ԱԲ համակարգերը դասակարգում է երեք խմբի՝ ելնելով ռիսկից.
- Անընդունելի ռիսկ. ներառում է արհեստական բանականության հավելվածներ, որոնք մանիպուլացնում են մարդու վարքագիծը կամ կիրառում են «սոցիալական վարկանիշի» սանդղակներ։ Սրանք հիմնականում արգելված են՝ սահմանափակ բացառություններով իրավապահ մարմինների համար:
- Բարձր ռիսկ. անվտանգության կամ հիմնարար իրավունքների վրա ազդող ԱԲ մոդելներ, որոնք օգտագործվում են կարևոր ենթակառուցվածքներում և իրավապահ մարմիններում:
- Թափանցիկության պահանջներ. այնպիսի համակարգերը, ինչպիսին է գեներատիվ ԱԲ-ն, պետք է բացահայտեն բովանդակության ծագումը և համապատասխանեն հեղինակային իրավունքի մասին օրենքներին:
Օրենքը նաև շեշտադրում է նորարարությունը՝ աջակցելով սկսնակներին և ՓՄՁ-ներին փորձարկման միջավայրերի միջոցով:
ԵՄ խորհրդի կողմից 2024թ.-ի մայիսին ընդունվել է ԱԲ վերաբերյալ շրջանակային հռչակագիր, որը բաց է ստորագրման համար։
ԱՄՆ ԱԲ իրավունքների օրինագիծ և ԱՄՆ նախագահի հրաման
Ի տարբերություն ԵՄ-ի, ԱՄՆ-ում դեռևս չկա օրենք, որը կարգավորում է ԱԲ տիրույթը, սակայն 2022թ.-ին Սպիտակ տունը հրապարակել է ԱՄՆ ԱԲ իրավունքների օրինագիծը, որն ունի խորհրդատվական բնույթ։ Այն ընդգծում է քաղաքացիական իրավունքների, գաղտնիության և ժողովրդավարական արժեքների պաշտպանությունը արհեստական բանականության հնարավոր վնասներից: Այն նախանշում է հինգ հիմնական սկզբունք.
- Անվտանգ և արդյունավետ համակարգեր. ԱԲ-ն պետք է անցնի անվտանգության փորձարկում և շարունակական մշտադիտարկման ենթարկվի:
- Ալգորիթմական խտրականության կանխարգելում. համակարգերը պետք է կանխեն խտրականությունը և ապահովեն արդարությունը՝ կանոնավոր ազդեցության գնահատումներով և հանրային հաշվետվություններով:
- Տվյալների գաղտնիություն. օգտատերերը պետք է վերահսկեն իրենց տվյալները՝ կանխադրված գաղտնիության պաշտպանությամբ և տվյալների նվազագույն հավաքագրմամբ:
- Ծանուցում և բացատրություն. մարդիկ պետք է տեղեկացված լինեն AI-ի ազդեցության մասին իրենց վրա և հասկանան դրա աշխատանքը:
- Մարդկային այլընտրանքներ. օգտատերերը պետք է հնարավորություն ունենան որոշումներ կայացնող մարդկանց հետ շփվելու, հատկապես կարևորագույն ոլորտներում, ինչպիսին է առողջապահությունը:
2023թ-ի հոկտեմբերին ընդունվել է նաև ԱՄՆ նախագահի «Արհեստական բանականության անվտանգ, ապահով, վստահելի զարգացում և օգտագործում» հրամանը, որը կարգավորում է ԱՄՆ գործադիր մարմնի և գործակալությունների աշխատանքն ԱԲ տիրույթում, սակայն չի տարածվում մասնավոր կազմակերպությունների գործունեության վրա։
Չինաստանի ԱԲ կարգավորման շրջանակը
Չ ինաստանը ներդրել է համապարփակ կարգավորման շրջանակ՝ վերահսկելու արհեստական բանականության զարգացումն ու կիրառումը։ Հիմնական կանոնակարգերն են.
- Խորհրդատվական ալգորիթմների կանոնակարգը (2021) սահմանում է, որ խորհրդատվական բնույթ ունեցող ալգորիթմները չպետք է վտանգեն ազգային անվտանգությունը կամ խաթարեն հասարակական կարգը։ Այն նաև պահանջում է թափանցիկություն ալգորիթմական որոշումների կայացման գործընթացում և արգելում է խտրական գործելակերպը։
- Խորը սինթեզի (deep synthesis) կանոնակարգը (2022) կարգավորում է այնպիսի տեխնոլոգիաներ, ինչպիսիք են դիփֆեյքերը։ Այն պահանջում է հստակ նշել սինթետիկ եղանակով ստեղծված բովանդակությունը՝ ապատեղեկատվությունը կանխելու և հանրային շահերը պաշտպանելու նպատակով։
- ԱԲ գեներատիվ կանոնակարգը (2023) նախատեսված է վերահսկելու բովանդակություն ստեղծող ԱԲ համակարգերը։ Այս կանոնակարգն ընդգծում է ԱԲ-ի արդյունքների «ճշմարիտ և ճշգրիտ» լինելու անհրաժեշտությունը՝ համապատասխանեցնելով դրանք հիմնական սոցիալիստական արժեքներին և բացառելով այն բովանդակությունը, որը կարող է վտանգել պետական իշխանությունը։
Չինական կարգավորումների հիմնական նպատակն է, որ ԱԲ կիրառող մոդելները պետք է միջոցներ ձեռնարկեն՝ կանխելու քաղաքականապես զգայուն կամ վնասակար համարվող բովանդակության ստեղծումը՝ խիստ վերահսկողությամբ ապահովելով համապատասխանությունը եղած սկզբունքներին։ Նաև կանոնակարգերը շեշտադրում են անձնական տվյալների և ազգային անվտանգության պաշտպանությունը՝ պահանջելով ԱԲ համակարգերից կանխել տվյալների արտահոսքն ու չարաշահումը։
ՄԱԿ-ի բանաձևը, փորձագետների զեկույցը և UNESCO-ի խորհրդատվությունը
Մ ԱԿ-ը կոչ է անում գլոբալ ԱԲ կանոնակարգման՝ ընդգծելով ԱԲ-ի անդրսահմանային բնույթը և միասնական մոտեցման անհրաժեշտությունը: 2024թ. մարտին ՄԱԿ-ն ընդունեց ուղենիշային բանաձև ԱԲ օգտագործումը համընդհանուր բարօրության ուղղորդելու վերաբերյալ, որը կոչվում է «Կայուն զարգացման համար անվտանգ, ապահով և վստահելի արհեստական բանականության համակարգերի հնարավորությունների օգտագործում»։
ՄԱԿ փորձագետների զեկույցում առաջարկվում է ստեղծել անկախ գիտական խումբ, կանոնավոր քաղաքական երկխոսություններ անցկացնել և ստեղծել գլոբալ հիմնադրամ՝ թվային անջրպետը հաղթահարելու համար: Այն կոչ է անում սահմանափակել արհեստական բանականության կիրառումը ռազմական համատեքստում՝ պահպանելով միջազգային օրենքները և կառուցել ներառական կառավարման կառուցվածք:
ՅՈՒՆԵՍԿՕ-ի Գլխավոր կոնֆերանսում ընդունված «Արհեստական բանականության էթիկայի մասին» հանձնարարականն ընդունվել է 2021թ.-ին՝ դառնալով այս ոլորտում ստանդարտների սահմանման առաջին միջազգային գործիքը: ՅՈՒՆԵՍԿՕ-ի հանձնարարականը ազգերի և կազմակերպությունների համար ծառայում է որպես հիմնարար ուղեցույց՝ կողմնորոշվելու արհեստական բանականության կողմից առաջացած էթիկական մարտահրավերներին՝ խթանելով մարդկության համար օգտակար տեխնոլոգիաները՝ միաժամանակ պաշտպանելով հիմնարար իրավունքները:
Հետևություններ միջազգային «դառը» փորձից և կարգավորումների պրակտիկայից
Ը նհանուր առմամբ պետք է նկատել, որ ԱԲ ոլորտում կարգավորումների նպատակով ներդրված և մինչ այս պահն օրենքի ուժ ստացած կամ խորհրդատվական բնույթ ունեցող կարգավորումներն ունեն հստակ ընդհանրություն՝ անձնական տվյալների պաշտպանության, խտրականության, մանիպուլյացիաների ու դիփֆեյքերի հնարավոր բացասական ազեդության նվազեցման, մարդկանց վրա վարքագծային ազդեցություն ունենալու սահմանափակման առումներով։ Միևնույն ժամանակ այդ կարգավորումները խթանում են նորարարությունն ԱԲ ոլորտում։ Կարգավորումներն իրարից տարբերվում են հիմնականում նրանով, որ ԱՄՆ-ում դեռևս չեն ընդունվել օրենքի ուժ ունեցող իրավական ակտեր, իսկ ԵՄ-ն և Չինաստանն արդեն ընդունել են։
Դատելով գլոբալ միտումներից և մեր երկրում ապատեղեկատվության տարածման սովորույթներից, Հայաստանը ևս կարիք ունի համանման կարգավորումների ներդրման։ Ընդ որում, այդ կարգավորումները ոչ միայն պետք է միտված լինեն ԱԲ չարաշահման ուղիները սահմանափակելուն, այլև պետք է խթանեն ԱԲ օգտակար գործիքների ներդրումը գործունեության բոլոր ոլորտներում, ինչպես նաև աջակցեն ոլորտի զարգացմանը, քանի որ ՏՏ ոլորտի առաջխաղացումն այլևս անքակտելիորեն կապված է ԱԲ տեխնոլոգիաների հետ։ Պետք է նկատել, որ Հայաստանը զգալիորեն զիջում է դիրքերը մասնավորապես «Կառավարության ԱԲ պատրաստվածության ինդեքսով» առաջատար երկրներին և հարևան երկրներին՝ գտնվելով 85-րդ տեղում։
Այս առումով անհրաժեշտ է, նախևառաջ իրականացնել հայաստանյան դաշտի մանրակրկիտ ուսումնասիրություն և գույքագրում, ինչի հիման վրա, հաշվի առնելով միջազգային պրակտիկան, կձևավորվեն արհեստական բանականության ոլորտի կարգավորման և խթանման ռազմավարությունն ու համապատասխան կանոնակարգերը։ Հաշվի առնելով առկա միջազգային փորձը, նման կարգավորումն ունի էական հրատապություն և պետք է իրագործել 2025 թվականի ընթացքում։